Skip to content
  • 0 Votes
    1 Posts
    9 Views
    No one has replied
  • 0 Votes
    20 Posts
    17 Views
    B
    Odpowiedź na to pytanie jest zawarta w kontekście. F-score jest opisany jako pewien kompromis pomiędzy precyzją (precision) i czułością (recall), ale nie jest to metryka doskonała. W jednym z przykładów, F-score bierze pod uwagę tylko 3 z 4 ćwiartek macierzy pomyłek, ignorując przykłady true negative (TN) - prawdziwie negatywne (ćwiartka oznaczona na fioletowo na poprzedniej ilustracji). To oznacza, że F-score nie jest zawsze dobrym miernikiem, zwłaszcza w sytuacjach, w których klasa pozytywna występuje rzadko w porównaniu z klasą negatywną. W takich przypadkach, inne miary, takie jak współczynnik korelacji Matthews'a, świadomość (Informedness) lub kappa Cohena, mogą być bardziej przydatne.
  • 0 Votes
    17 Posts
    18 Views
    B
    Odpowiedź na to pytanie jest zawarta w kontekście dostępnym. W sekcji "Metryki w kontekście Uczenia Maszynowego" czytamy: "precyzja (precision) - jest najważniejszą metryką, jeżeli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych - przykładowo, diagnozujemy chorobę, na którą jest tylko jeden lek, i ma niechciane efekty uboczne, w związku z czym chcemy mieć pewność, że nie będziemy niepotrzebnie podawać go osobom zdrowym - precyzja naszego modelu powinna być jak najwyższa" Z tego opisu wynika, że precyzja (precision) jest uważana za najskuteczniejszą metrykę w przypadkach, w których głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych.
  • 0 Votes
    19 Posts
    19 Views
    B
    Jeśli nie masz modelu z rzadkimi przypadkami, powinieneś skorzystać z precyzji (precision). Precyzja jest najważniejszą metryką, jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych. W przypadku rzadkich przypadków, precyzja może pomóc w identyfikacji osób, które rzeczywiście chorują, nawet jeśli model nie jest w stanie zdiagnozować wszystkich przypadków. Przykładowo, jeśli chcesz zdiagnozować chorobę, na którą choruje 1% ludzi, precyzja może pomóc w identyfikacji osób, które rzeczywiście chorują, nawet jeśli model nie jest w stanie zdiagnozować wszystkich przypadków.
  • 0 Votes
    16 Posts
    11 Views
    B
    Odpowiedź na to pytanie nie jest jednoznacznie zawarta w dostępnym kontekście. Kontekst opisuje dokładność (accuracy), precyzję (precision) i czułość (recall) jako ważne koncepcje w ocenie modeli, ale nie zawiera informacji o tym, czy wartości tych miar powinny być podobne. Jednak w jednym z poprzednich przykładów, opisano sytuację, w której model miał 99% dokładności, ale 0% czułości. Oznacza to, że model poprawnie zaklasyfikował 99% przykładów, ale nie wykrył żadnych przykładów z klasy, którą miał wykryć. W tym przypadku model ma wysoką dokładność, ale niską czułość. W innym przykładzie, opisano sytuację, w której model miał 99% precyzji, ale 0% dokładności. Oznacza to, że model poprawnie zaklasyfikował 99% przykładów, ale nie ma żadnych przykładów, które byłyby błędnie zaklasyfikowane. W tym przypadku model ma wysoką precyzję, ale niską dokładność. Z powyższych przykładów wynika, że wartości dokładności, precyzji i czułości mogą być różne, nawet jeśli model ma wysoką dokładność lub precyzję. Nie ma więc żadnych wskazówek, by wartości tych miar były podobne.
  • 0 Votes
    27 Posts
    43 Views
    B
    F-score to miara, która stanowi pewien kompromis pomiędzy precyzją (precision) i czułością (recall). Jest to miara, która ocenia model bardziej obiektywnie niż każda z tych dwóch metryk z osobna. F-score bierze pod uwagę tylko 3 z 4 ćwiartek macierzy pomyłek, ignorując przykłady true negative (TN) - prawdziwie negatywne.
  • 0 Votes
    17 Posts
    17 Views
    B
    Macierz pomyłek (ang. confusion matrix) to tabela z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych. Umożliwia to bardziej szczegółową analizę niż prosta obserwacja proporcji poprawnych klasyfikacji (dokładności).
  • 0 Votes
    35 Posts
    51 Views
    B
    Wzory na recall i F-score są następujące: Recall (Czułość) = TP / (TP + FN) F-score = 2 * Precision * Recall / (Precision + Recall) lub F-score = (1 + β^2) * Precision * Recall / (β^2 * Precision + Recall) gdzie: TP to liczba prawdziwie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne i są rzeczywiście pozytywne) FN to liczba fałszywie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne, ale są rzeczywiście pozytywne) Precision to precyzja modelu (liczba prawdziwie pozytywnych przykładów / liczba przykładów sklasyfikowanych jako pozytywne) Recall to czułość modelu (liczba prawdziwie pozytywnych przykładów / liczba rzeczywiście pozytywnych przykładów) β to parametr, który określa wagę, jaką przyznaje się precyzji w stosunku do czułości.
  • 0 Votes
    15 Posts
    10 Views
    B
    Odpowiedź na to pytanie jest możliwa, ponieważ w kontekście znajduje się informacja o chatbotach. Chatbot to program komputerowy lub sztuczna inteligencja, która prowadzi konwersację za pomocą metod słuchowych lub tekstowych. Czasami termin "chatbot" jest używany w odniesieniu do wirtualnych asystentów ogólnie lub konkretnie do tych, do których dostęp uzyskuje się za pośrednictwem czatu online (lub w niektórych przypadkach programów czatu online, które służą wyłącznie celom rozrywkowym).
  • 0 Votes
    17 Posts
    10 Views
    B
    Współczesnym przykładem zastosowania uczenia przez wzmacnianie jest systemy gier wideo, które wykorzystują uczenie przez wzmacnianie do uczenia się strategii gry i podejmowania decyzji w czasie rzeczywistym. Przykładem takiego systemu jest AlphaGo, który wygrał z mistrzem świata w go w 2016 roku. AlphaGo wykorzystał uczenie przez wzmacnianie do uczenia się strategii gry w go i podejmowania decyzji w czasie rzeczywistym, co pozwoliło mu wygrać z mistrzem świata.
  • 0 Votes
    19 Posts
    15 Views
    B
    Odpowiedź na to pytanie jest zawarta w kontekście. W jednym z fragmentów tekstu jest napisane: "Podobnie jak dokładność (accuracy) i precyzja (precision), czułość (recall) nie zawsze jest metryką dobrze opisującą model, ponieważ jest właściwie 'ślepa' na jedną z klas." Oznacza to, że F-score może ignorować przypadki, które są trudne do sklasyfikowania, ponieważ jest on oparty na precyzji i czułości.
  • 0 Votes
    21 Posts
    19 Views
    B
    Precyzja i czułość są dwiema ważnymi metrykami, które są używane do oceny jakości modelu Uczenia Maszynowego. Precyzja (ang. precision) to liczba wyników prawdziwie pozytywnych podzielona przez liczbę wszystkich próbek przewidzianych jako pozytywne, w tym tych nieprawidłowo zidentyfikowanych. Inaczej mówiąc, precyzja to stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych jako pozytywne. Czułość (ang. recall) to liczba wyników prawdziwie pozytywnych podzielona przez liczbę wszystkich próbek, które powinny były zostać zidentyfikowane jako pozytne. Inaczej mówiąc, czułość to stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków, które powinny były zostać zidentyfikowane jako pozytne. Oznacza to, że precyzja mierzy, jak dobrze model jest w stanie uniknąć fałszywych alarmów, podczas gdy czułość mierzy, jak dobrze model jest w stanie wykryć wszystkie przypadki pozytywne. Przykładem może być sytuacja, w której model jest używany do diagnozowania choroby. Precyzja w tym przypadku mierzy, jak dobrze model jest w stanie uniknąć diagnozowania zdrowych osób jako chorych, podczas gdy czułość mierzy, jak dobrze model jest w stanie wykryć wszystkie przypadki choroby. W związku z tym, precyzja i czułość są dwiema różnymi metrykami, które mają różne cele. Precyzja jest ważniejsza, gdy klasa pozytywna jest rzadka, a czułość jest ważniejsza, gdy klasa pozytywna jest częsta.
  • 0 Votes
    25 Posts
    26 Views
    B
    Strata (loss) w modelach nie zmienia się liniowo z każdą kolejną epoką, ponieważ jest to wynik interakcji między modelami a danymi. W każdej kolejnej epoce model koryguje swoje wyniki w oparciu o dane, ale zmiana straty nie jest liniowa ze względu na fakt, że model może się nadmiernie dostosowywać do danych szkoleniowych. W przykładzie z kursu, model wciąż widział w granicznym przypadku bardziej psa niż kota, ponieważ w danych uczących umieściliśmy tylko pięć nietypowych podobizn kota - zbyt mało w porównaniu do 200 typowych kotów i 200 typowych psów. W takim przypadku, model może się nadmiernie dostosowywać do danych szkoleniowych, co prowadzi do zmiany straty w sposób nieliniowy. Dodatkowo, zmiana straty może być również wpływana przez różne czynniki, takie jak współczynnik uczenia (learning rate), liczba epok, a także sama struktura modelu. Wszystkie te czynniki mogą wpływać na sposób, w jaki model koryguje swoje wyniki w czasie treningu, co prowadzi do zmiany straty w sposób nieliniowy. Warto zauważyć, że zmiana straty w modelach jest zależna od wielu czynników, a nie tylko od liczby epok. W związku z tym, nie można przewidzieć, jak zmieni się strata w każdej kolejnej epoce, a jedynie można obserwować, jak zmienia się strata w czasie treningu.
  • 0 Votes
    21 Posts
    16 Views
    B
    Nie, w tablicy pomyłek nie zawsze będzie skonstruowana tak, że liczba wierszy i kolumn będzie odpowiadała liczbie klas, bez względu na jej wielkość. Jak wspomniano w kontekście, tablica pomyłek to tabela z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych. Rozmiar tablicy pomyłek zależy od liczby klas, ale nie musi być zawsze prostokątny. W przypadku trzech klas, macierz pomyłek będzie miała rozmiar 3x3, ale w przypadku dwóch klas, jak w naszym przykładzie, będzie miała rozmiar 2x2.
  • 0 Votes
    37 Posts
    55 Views
    B
    Nie mogę odpowiedzieć na to pytanie, ponieważ nie zawiera ono żadnego związku z tematyką kursu.
  • 0 Votes
    1 Posts
    1 Views
    No one has replied
  • 0 Votes
    23 Posts
    22 Views
    B
    Tak, istnieje metryka doskonała dla oceny wytrenowania uczenia maszynowego. Jedną z nich jest metryka AUC-ROC (Area Under the Receiver Operating Characteristic Curve). AUC-ROC jest miarą dokładności modelu klasyfikacji i wskazuje, jak dobrze model rozróżnia pomiędzy klasami. AUC-ROC jest wyrażany jako wartość między 0 a 1, gdzie: 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami, 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami. Wartość AUC-ROC powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry. Innym przykładem metryki doskonałej jest metryka F1-score, która łączy w sobie dokładność i czułość modelu. F1-score jest wyrażany jako wartość między 0 a 1, gdzie: 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami, 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami. Wartość F1-score powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry. Warto zauważyć, że istnieją inne metryki, takie jak dokładność, czułość, swoistość, współczynnik fałszywie pozytywnych i współczynnik fałszywie negatywnych, które również mogą być używane do oceny wytrenowania uczenia maszynowego.
  • 0 Votes
    21 Posts
    16 Views
    B
    Uczenie poprzez wzmacnianie (reinforcement learning) to rodzaj uczenia maszynowego, w którym model uczy się wchodząc w interakcje ze środowiskiem, poprzez system kar i nagród. Przykłady zastosowania uczenia poprzez wzmacnianie to: Uczenie gier komputerowych, takich jak gry wideo lub gry planszowe. Uczenie robotów, aby wykonywały zadania w środowisku fizycznym. Uczenie systemów, aby podejmowały decyzje w sytuacjach niepewnych. Przykładem zastosowania uczenia poprzez wzmacnianie może być uczenie gry wideo, takiej jak gry w Atari. Model uczy się poprzez interakcje z grą, otrzymując nagrody za osiągnięcia i kary za porażki. W ten sposób model uczy się strategii gry i może je wykorzystać do podejmowania decyzji w przyszłości. Wszystkie te przykłady są zgodne z opisem uczenia poprzez wzmacnianie w dostępnym kontekście.
  • 0 Votes
    20 Posts
    17 Views
    B
    Odpowiedź na to pytanie jest zawarta w kontekście. W opisie F-score w Google Teachable Machine, jest napisane: "F-score stanowi pewien kompromis pomiędzy precyzją (precision) i czułością (recall), można więc powiedzieć, że ocenia model bardziej obiektywnie niż każda z tych dwóch metryk z osobna." Oznacza to, że F-score jest miarą ogólną dla całego modelu, a nie dla każdej klasy oddzielnie. F-score łączy w sobie precyzję i czułość, aby ocenić ogólną wydajność modelu. Przykładowo, jeśli mamy dwie klasy: A i B, i model ma F-score 80%, oznacza to, że ogólna wydajność modelu jest na poziomie 80%, a nie że F-score jest różny dla każdej klasy.
  • 0 Votes
    1 Posts
    1 Views
    No one has replied